فهرست مطالب

اندیشه آماری - سال بیست و ششم شماره 2 (پیاپی 52، پاییز و زمستان 1400)

نشریه اندیشه آماری
سال بیست و ششم شماره 2 (پیاپی 52، پاییز و زمستان 1400)

  • تاریخ انتشار: 1401/06/22
  • تعداد عناوین: 12
|
  • مهسا مرکانی، منیژه صانعی طبس، حبیب نادری*، حامد احمدزاده، جواد جمال زاده صفحات 1-8

    هنگام کار با یک مجموعه داده رگرسیونی ممکن است برخی شرایط برقرار نباشند و محدودیت هایی برای اجرای مدل رگرسیون به وجود آیند. روش آنتروپی تعمیم یافته ماکسیمم قادر است پارامترهای مدل رگرسیونی را بدون اعمال هیچ شرطی روی توزیع احتمال خطاها برآورد کند. این روش حتی در مواردی که حجم نمونه خیلی کم است و یا بین متغیرهای مستقل، هم خطی بالایی وجود داشته باشد قادر به برآورد پارامترهای مدل است و لذا روشی توانمندی است. در این پژوهش قصد بر آن است پارامترهای مدل لجستیک دودویی با به کارگیری آنتروپی تعمیم یافته ماکسیمم (GME)‎ برآورد شود و نتایج آن با روش ماکسیمم درستنمایی ‎(ML)‎ براساس معیار میانگین مربعات خطا‎ (MSE) ‎ مقایسه شود. بدین منظور نمونه ای تصادفی به حجم ‎399‎ نفر از اطلاعات مشتریان بانک مانند سن، شغل، وضعیت تاهل، میزان تحصیلات و وام به عنوان متغیرهای مستقل و تقاضای مشتری برای افتتاح حساب مدت دار به عنوان متغیر وابسته جمع آوری شد. درنهایت با توجه به مقدار ‎MSE‎ نتیجه گرفته شد که روش GME نسبت به روش ML‎ دقیق تر است.

    کلیدواژگان: رگرسیون لجستیک، آنتروپی ماکسیمم تعمیم یافته، درستنمایی ماکسیمم، میانگین مربعات خطا
  • مهدی روزبه*، ملیحه ملک جعفریان، منیره معنوی صفحات 9-19

    مهمترین هدف علم آمار تجزیه و تحلیل داده های واقعی دنیای پیرامون بشر است. اگر این اطلاعات دقیق و درست تحلیل شوند، نتایج حاصل در بسیاری از تصمیمات مهم یاری گر ما خواهد بود. از جمله داده های واقعی پیرامون ما که تحلیل آن بسیار مهم است، داده های مربوط به مصرف آب می باشد. با توجه به این که کشور ایران در ناحیه نیمه خشک آب و هوایی از کره زمین قرار دارد، لازم است برای پیش بینی و برگزیدن بهترین و مناسب ترین مدل های دقیق مصرف آب گام های ژرفی برداشت که لازمه تصمیمات کلان کشوری می باشد. در تجزیه و تحلیل داده های واقعی ممکن است محقق با مشکل همخطی و نقاط دورافتاده مواجه شود. روش های مقاوم ‎(استوار)‎ برای تحلیل مجموعه داده های دارای نقاط دورافتاده و رویکرد ستیغی روشی است که برای تحلیل مجموعه داده های دارای همخطی استفاده می شوند. محدودیت روی مدل ها نیز ناشی از به کارگیری اطلاعات غیرنمونه ای در برآورد ضرایب رگرسیونی است. در این مقاله به مدل سازی داده های مصرف آب، با استفاده از رویکرد ستیغی محدود شده تصادفی استوار پرداخته می شود.

    کلیدواژگان: روش کمترین توان های دوم پیراسته ریج، محدودیت خطی تصادفی، مصرف آب، نقاط دورافتاده، همخطی
  • مهدی روزبه*، آرتا روحی، فاطمه جهادی، سعید زالزاده صفحات 21-32

    در این تحقیق، هدف بررسی و تحلیل روشی برای پیش بینی قیمت سهام بورس اوراق بهادار است. هرچند پیش بینی بازار سرمایه با توجه به وابستگی آن به عامل سیاست چندان ساده نیست‏‏، اما با مدل سازی داد ه ها، پیش بینی عملکرد سهام بورس اوراق بهادار در بازه بلندمدت تا حدودی امکان پذیر خواهد بود. در این راستا با ‏استفاده از مدل های رگرسیون نیم پارامتری و رگرسیون بردار تکیه گاه با هسته های مختلف و اندازه گیری خطاهای پیش بین، بر روی یکی از سهم های بازار بورس اوراق بهادار بر اساس نوسان‏‎‎‏های روزانه و مقایسه روش ها با استفاده از معیارهای ریشه میانگین توان دوم خطاها و میانگین قدرمطلق درصد خطا‎‏ها، مدل رگرسیون بردار تکیه گاه با هسته شعاعی و خطای ‏برابر 0.1‎ ‏دارای مناسب ترین برازش روی داده های واقعی بازار سهام بوده است‎.

    کلیدواژگان: پیش بینی سهام، مدل رگرسیون بردار پشتیبان، مدل رگرسیون نیمه پارامتری، یادگیری ماشین
  • محمود میرجلیلی، جابر کاظم‍ پور*، بهشید یساولی صفحات 33-41

    در این مقاله، تابع چگالی احتمال و تابع توزیع تجمعی حاصل ضرب چند متغیر تصادفی مستقل دارای توزیع توانی با پارامترهای دوبه دو متفاوت و هم چنین تابع مولد گشتاور و تابع مشخصه این متغیرها در حالتی خاص محاسبه شده اند. به عنوان نتایجی از این محاسبات تابع چگالی احتمال و تابع توزیع تجمعی حاصل ضرب چند متغیر تصادفی مستقل دارای توزیع پارتو و مجموع چند متغیر تصادفی مستقل دارای توزیع نمایی با پارامترهای دوبه دو متفاوت ارایه شده اند. کاربردهای نظری دیگری از این محاسبات نیز در پیدا کردن تابع چگالی حاشیه ای آماره های ترتیبی با توابع چگالی احتمال مطلقا پیوسته و چند اتحاد ترکیباتی جالب پدیدار گشته است.

    کلیدواژگان: توزیع توانی استاندارد، آماره های ترتیبی، حاصل ضرب و مجموع چند متغیر تصادفی مستقل، تابع چگالی احتمال حاشیه ای
  • لیدا کلهری ندرآبادی*، روشنک علی اکبری صبا، آسیه عباسی صفحات 43-52

    آمارگیری هزینه و درآمد خانوار یکی از مهم ترین آمارگیری های مرکز آمار ایران است که پارامترهای اصلی آن همبسته فضایی هستند.وقتی همبستگی فضایی میان واحدهای جامعه وجود دارد، انتخاب نمونه های مستقل به روش کلاسیک به دلیل برقرار نبودن شرط استقلال واحدهای جامعه با چالش های بسیاری مواجه است. استفاده از نمونه گیری فضایی راه حلی برای مواجه با این مشکل است. به کارگیری نمونه گیری فضایی  به دلیل دسترسی نداشتن به چارچوب مناسب، در آمار رسمی کمتر مورد توجه واقع شده است. در این مقاله یک روش طرح مبنای مدل یار  برای طبقه بندی بهینه فضایی جامعه هدف مرور می شود.  در حال حاضر اطلاعات مکانی واحدهای جامعه در چارچوب نمونه گیری  آمارگیری  هزینه و درآمد  وجود ندارد، اما  دسترسی به اطلاعات مکانی برخی از واحدهای نمونه توسط مرکز آمار ایران برای این مطالعه محقق شده است.   تولید داده های مکانی یکی از مولفه های اصلی در مدرن سازی نظام آماری است و مورد توجه مرکز آمار ایران قرار دارد. بنابراین در این مقاله با شبیه سازی چارچوب  فضایی نمونه گیری بر اساس الگوی داده های هزینه و درآمد، کاربست طبقه بندی بهینه فضایی بر اساس فاصله تعمیم یافته با استفاده از خطای پیشگویی انجام می شود. نتایج  نشان دهنده افزایش کارایی روش نمونه گیری با  این طبقه بندی در مقایسه با نمونه گیری تصادفی ساده در سطح نواحی جغرافیایی است. همچنین نتایج شبیه سازی  با مشبکه هایی با اندازه های مختلف و میزان همبستگی متفاوت حاکی از کارایی این روش در مقایسه با روش فعلی آمارگیری هزینه و درآمد است.

    کلیدواژگان: طبقه بندی فضایی، فاصله تعمیم یافته، آمارگیری هزینه و درآمد خانوار
  • رامین کاظمی*، محمدقاسم وحیدی اصل صفحات 53-65

    دانش آمار، چه در عصر شمارش های اولیه و چه در متعالی ترین شکل کنونی آن همواره در خدمت طبقات اجتماعی مختلف و ازجمله هییت های حاکمه بوده؛ بسته به وسع خود، و البته وسع و صداقت کاربرنده، ابعاد زیادی از مجهولات را روشن کرده است. به عنوان مثال، آمارهای مربوط به کووید‎-19‎ (بیماری کروناویروس) در کشورهای مختلف، هر اندازه هم ناقص و محدود و چه بسا در مواردی مخدوش، در تعیین آستانه بحرانی بین معیشت (ایجاد قرنطینه و محدودیت ها) و سلامت (کاهش ابتلا و مرگ ومیر) و انتخاب مسیری که در حالت خلاف آن، دشواری های بیشتر رخ می نموده، هدایت گر و همچنین عصای دست پژوهش گران، مدیران، و حکومت گران بوده است. با این توصیف، از زمان شیوع همه گیری کووید‎-19 در ووهان چین، تحقیقات متعددی با هدف توصیف و ایجاد پشت بندهای مهار شیوع بیماری انجام شده است. ضمن تایید نقش علم آمار در تحلیل داده های همه گیری کووید-19 ‏در ابعاد مختلف‏، اهمیت توجه بیشتر ‏را به مدل های احتمالاتی‏، و به طور کلی نظریه احتمال که توانایی پاسخ گویی به مسایل مهم مرتبط با «هندسه»ی کووید-19 و موارد مشابه را دارد‏، برای برنامه ریزان و مدرسان آمار و احتمال‏، به ویژه در دوره کارشناسی‏، تبیین می کنیم. در این راستا، با مروری بر یکی از مفاهیم به خوبی تثبیت شده همه گیری شناسی، نظریه پرکولاسیون‏، گوشه هایی از نحوه انتشار کووید-19 را پایه این مدل‏، بررسی می کنیم.

    کلیدواژگان: ‎همه گیری، کووید-19، پرکولاسیون، پرکولاسیون شدگی
  • خسرو فضلی*، کورش ارزیده صفحات 67-71

    مسیله کلاسیک سوزن بوفون تجربه ای تصادفی است که در آن از پرتاب کاملا”شانسی” و بی قاعده سوزنی روی یک صفحه میتوان برآوردی آماری برای عدد π بدست آورد. در این مسیله یک سوزن به تصادف روی صفحه ای که با خطوط موازی هم فاصله افراز شده است رها میشود. اگر پرتاب چندین بار بطور مستقل تکرار شود، بر حسب تعداد دفعاتی که سوزن با یکی از خطوط برخورد می کند برآوردگری برای عدد π بدست می آید. در این مقاله فرض میکنیم صفحه بوسیله خطوط افقی و عمودی هم فاصله به مستطیل های هم اندازه افراز شده است. در این حالت نیز بر حسب تعداد دفعات برخورد سوزن با اضلاع یک مستطیل برآوردگر دیگری برای πبدست می آوریم. نشان میدهیم هر دو برآوردگر به طور مجانبی نرمال و نااریب هستند. به منظور مقایسه آنها، کارآیی مجانبی نسبی برآوردگرها را بدست آورده و نشان میدهیم برآوردگر بر اساس مستطیل کاراتر میباشد. همچنین برای عدد π فواصل اطمینان بدست می آوریم و نتایج عملی تعدادی پرتاب ارایه میشود.

    کلیدواژگان: ارایی مجانبی نسبی، مجانبی نرمال، مجانبی نااریب
  • وحید رضائی تبار* صفحات 73-80

    در پایان دسامبر 2019، گسترش یک بیماری عفونی جدید در شهر ووهان چین گزارش شد که توسط یک کروناویروس جدید ایجاد شده و به طور رسمی توسط سازمان بهداشت جهانی به عنوان کووید-19 نام گذاری گردید. با عبور تعداد قربانیان این ویروس از مرز 1000 نفر، سازمان بهداشت جهانی برای بیماری ناشی از آن نام رسمی کووید-19را انتخاب کرد که اشاره ای به «کرونا»، «ویروس»، «بیماری» و سال 2019 دارد. پیش بینی هایی در ارتباط با کووید-19 می تواند به دولت در تصمیم گیری های بهتر کمک کند. در این مقاله، از یک رویکرد عینی برای پیش بینی هایی در ارتباط با کووید-19 مبتنی بر روش های آماری استفاده شده است. تحلیل ها با این فرض انجام شده اند که داده های ارایه شده قابل اعتماد هستند. مهم ترین هدف، پیش بینی روند شیوع ویروس کرونا برای تعداد موارد مبتلای قطعی، فوتی و بهبودیافته و تخمین مدت زمان مدیریت این ویروس است که از روش هموارسازی نمایی برای پیش بینی استفاده شده است.  این خانواده از مدل ها، به خصوص برای سری های زمانی کوتاه مدت بسیار مناسب است. هموارسازی نمایی به زبان ساده نوعی میانگین متحرک است که خود را اصلاح می کند. در نهایت با توجه به پیش بینی آماری صورت گرفته، به ارایه راهکارهایی می پردازیم.

    کلیدواژگان: کووید-19، پیش بینی، رویکرد عینی، هموارسازی نمایی
  • بنیتا دولت زاده، ایوب شیخی*، ماشالله ماشینچی، علبرضا عرب پور صفحات 81-87

    در این مقاله متغیر تصادفی فازی و تابع توزیع تجمعی آن را مطالعه میکنیم و به بیان متغیر تصادفی فازی توام و تابع توزیع تجمعی آنها میپردازیم. سپس به بیان مفهوم مفصل و کاربرد آن در ساخت تابع توزیع تجمعی توام پرداخته و کاربرد مفصل را در ساخت تابع توزیع تجمعی توام دو متغیر تصادفی فازی ارایه میدهیم. درنهایت، جهت درک بهتر مثالی را برای این مطلب بیان میکنیم.

    کلیدواژگان: متغیر تصادفی فازی، α-برش، α-بدبینانه، تابع قابلیت تغییرپذیری، تابع توزیع تجمعی فازی، متغیر تصادفی فازی توام، تابع توزیع تجمعی فازی توام، مفصل
  • مجید جعفری خالدی*، حسن میرزاوند صفحات 89-103

    برای استنباط آماری در مورد پارامتر های مدل رگرسیونی نیاز به فرض توزیع مشخصی بر روی عبارت خطای تصادفی می باشد. یک فرض اساسی در مدل رگرسیون خطی این است که عبارت خطای تصادفی از یک توزیع نرمال پیروی کند. با این حال، در پژوهش های آماری گاهی با داده هایی مواجه می شویم که توزیع آن ها چولگی و دو مدی را ارایه می دهند، و دیگر نمی توان از فرض توزیع نرمال برای تحلیل آنها استفاده کرد. یک رویکرد مرسوم برای حل این مسیله به کارگیری آمیخته ای از مدل های چوله نرمال است. اما در این گونه مدل ها تعداد پارامترها به نحو فزاینده ای افزایش می یابد که این خود برازش مدلها به داده ها را دشوار می نماید. بعلاوه مدل های آمیخته خود درگیر مسایلی مانند شناساناپذیری هستند. در این حالت یک راه حل مناسب استفاده از توزیع های منعطفی است، که بتوانند چولگی و دو مدی بودن داده ها را در مدل بندی لحاظ کنند. تاکنون روش های مختلفی ارایه شده که بر مبنای توسعه توزیع چوله نرمال، توزیع های دو مدی نامتقارن ایجاد شده اند. در این مقاله از این روش ها برای ساخت و معرفی مدل رگرسیونی منعطف نسبت به مدل های رگرسیون مبتنی بر توزیع چوله نرمال و آمیخته ای از دو توزیع چوله نرمال استفاده شده و با بکارگیری مثال شبیه سازی عملکرد آنها مورد بررسی قرار می گیرد. سپس نحوه کاربست آنها در یک مثال کاربردی مربوط به مجموعه داده های اسب دوانی نشان داده می شود.

    کلیدواژگان: چولگی، توزیع های دو مدی، تقارن، توزیع های آمیخته، رگرسیون
  • ابوذر بازیاری* صفحات 105-116

    در این مقاله، تعمیم جدیدی از توزیع گامبل ‏تبدیل شده به عنوان توزیع گامبل تبدیل شده‏ ‎‎ی مکعبی بر اساس طرح تبدیل شده ی رتبه مکعبی معرفی شده است. نشان داده می شود که برای برخی از پارامترها، تابع چگالی پیشنهادی مسوکورتیک و برای برخی دیگر از پارامترها تابع چگالی شبیه تابع پلاتیکوریک است. ویژگی های آماری این توزیع، شامل تابع بقا، تابع خطر، گشتاورها و تابع مولد گشتاور مورد مطالعه قرار گرفته شده است. پارامترهای توزیع گامبل تبدیل شده/ی مکعبی با روش ماکسیمم درستنمایی برآورد شده اند. ‏همچنین دو مثال عددی کاربرد توزیع گامبل تبدیل شده ی مکعبی را نشان داده و با توزیع گامبل و توزیع گامبل تبدیل شده مقایسه می شود. در پایان، نشان داده می شود که برای داده های ‏استفاده شده، توزیع گامبل تبدیل شده ی مکعبی، توزیع بهتری نسبت به توزیع های گامبل و گامبل تبدیل شده است.

    کلیدواژگان: برآورد ماکسیمم درستنمایی، تابع مولد گشتاور، تابع درستنمایی، توزیع گامبل تبدیل شده ی مکعبی
  • محمد خراسانی*، فرزاد اسکندری صفحات 117-126

    در دنیای امروزی با استفاده از فرآیند مدل سازی آماری می توان پدیده ‏های طبیعی را جهت تحلیل و پیش ‏بینی اتفاقات مورد بررسی، بکار برد. در بسیاری از روش های مدل سازی آب شناسی از اطلاعات موجود به بهترین وجه استفاده نمی شود به این دلیل که مدل های آب شناسی فرایندهای محیطی را در طیف وسیعی ‏نشان می دهند که باعث افزایش پیچیدگی مدل می شود. در هنگام پیش بینی به طور مشخص پارامترها بر عملکرد مدل های آماری تاثیر می گذارند. وجود عدم قطعیت در بسیاری از مسایل ارزیابی ریسک در پارامترها منجر به عدم قطعیت در پیش بینی های مدل می شود. تحلیل حساسیت کلی ابزاری است که برای نشان دادن عدم قطعیت استفاده می شود و در تصمیم گیری، ارزیابی ریسک، ساده سازی مدل ها و غیره کاربرد دارد. دو روش تحلیل حساسیت فاصله مینکوفسکی و تحلیل حساسیت منطقه ای روش هایی هستند که می توانند با یک مجموعه نمونه داده شده از جفت های ورودی - خروجی مدل کار کنند. یک تفاوت قابل توجه بین این دو روش آن است که تحلیل حساسیت فاصله مینکوفسکی، توزیع های خروجی را مشروط به مقادیر ورودی (پیشرو) تحلیل می کند در حالی که تحلیل حساسیت منطقه ای، توزیع های ورودی را مشروط به مقادیر خروجی تحلیل می کند (معکوس). در این مقاله به تعیین روابط روش های حساسیت کلی (فاصله مینکوفسکی و منطقه ای) پرداخته و نشان داده خواهد شد، هنگامی که تحلیل حساسیت منطقه ای بر توابع چگالی احتمالی متمرکز شود به سمت تحلیل حساسیت فاصله مینکوفسکی همگرا می شود. همچنین مشابه شاخص های حساسیت پیشرو می توان شاخص ‎‏ های حساسیت معکوس را به دست آورد. سرانجام به تحلیل حساسیت یک طرح ذخیره سازی آب با‏ استفاده از مدل های مد با ابعاد بالای خروجی های مدل پرداخته می شود.

    کلیدواژگان: تحلیل حساسیت کلی، تحلیل حساسیت فاصله مینکوفسکی، تحلیل حساسیت منطقه ای، رده بندی خروجی
|
  • Mahsa Markani, Manije Sanei Tabas, Habib Naderi*, Hamed Ahmadzadeh, Javad Jamalzadeh Pages 1-8

    ‎When working on a set of regression data‎, ‎the situation arises that this data‎ ‎It limits us‎, ‎in other words‎, ‎the data does not meet a set of requirements‎. ‎The generalized entropy method is able to estimate the model parameters‎ ‎Regression is without applying any conditions on the error probability distribution‎. ‎This method even in cases where the problem‎ ‎Too poorly designed (for example when sample size is too small‎, ‎or data that has alignment‎ ‎They are high and‎ .‎..) is also capable. ‎Therefore‎, ‎the purpose of this study is to estimate the parameters of the logistic regression model using the generalized entropy of the maximum‎. ‎A random sample of bank customers was collected and in this study‎, ‎statistical work and were performed to estimate the model parameters from the binary logistic regression model using two methods maximum generalized entropy (GME) and maximum likelihood (ML)‎. ‎Finally‎, ‎two methods were performed‎. ‎We compare the mentioned‎. ‎Based on the accuracy of MSE criteria to predict customer demand for long-term account opening obtained from logistic regression using both GME and ML methods‎, ‎the GME method was finally more accurate than the ml method‎.

    Keywords: Entropy, Generalized maximum entropy, Logistic regression, Logit, Maximum likelihood
  • Mahdi Roozbeh*, ‎Mlihe Malekjafarian, Monireh Maanavi Pages 9-19

    ‎The most important goal of statistical science is to analyze the real data of the world around us‎. ‎If this information is analyzed accurately and correctly‎, ‎the results will help us in many important decisions‎. ‎Among the real data around us which its analysis is very important‎, ‎is the water consumption data‎. ‎Considering that Iran is located in a semi-arid climate area of the earth‎, ‎it is necessary to take big steps for predicting and selecting the best and the most appropriate accurate models of water consumption‎, ‎which is necessary for the macro-national decisions‎. ‎But analyzing the real data is usually complicated‎. ‎In the analysis of the real data set‎, ‎we usually encounter with the problems of multicollinearity and outliers points‎. ‎Robust methods are used for analyzing the datasets with outliers and ridge method is used for analyzing the data sets with multicollinearity‎. ‎Also‎, ‎the restriction on the models is resulted from using non-sample information in estimation of regression coefficients‎. ‎In this paper‎, ‎it is proceeded to model the water consumption data using robust stochastic restricted ridge approach and then‎, ‎the performance of the proposed method is examined through a Monte Carlo simulation study‎.

    Keywords: ‎Multicollinearity‎, ‎Outliers‎, ‎Ridge least trimmed squares method‎, ‎Stochastic linear restriction‎, ‎Water consumption‎
  • Mahdi Roozbeh*, Arta Rouhi, Fatemeh Jahadi, Saeed Zalzadeh Pages 21-32

    ‎‎In this research‎, ‎the aim is to assess and analyze a method to predict the stock market‎. ‎However‎, ‎it is not easy to predict the capital market due to its high dependence on politics‎ ‎b‎ut by data modeling‎, ‎it will be somewhat possible to predict the stock market in the long period of time‎. ‎In this regard‎, ‎by using the semi-parametric regression models and support vector regression‎ ‎with different ‎kernels‎ and measuring the predictor errors in the stock market of one stock based on daily fluctuations and comparing methods using the root ‎of ‎mean ‎squared‎ error and mean absolute percentage error criteria‎, ‎support vector regression model ‎has ‎been‎ the most appropriate fit to the real stock market data with radial kernel and error equal to 0.1‎‎.

    Keywords: ‎Regression Model‎, ‎Stock Forecasting‎, ‎Support Vector Regression Model‎
  • Mahmood Mirjalili, Jaber Kazempoor*, Behshid Yasavoli Pages 33-41

    The cumulative distribution and density functions of a product of some random variables following the power distribution with different parameters have been provided. The corresponding characteristic and moment-generating functions are also derived. We extend the results to the exponential variables and furthermore, some useful identities have been investigated in detail.

    Keywords: exponential distribution, joint distributions, marginal densities, order statistics, power distribution
  • Lida Kalhori*, Roshanak Aliakbari Saba, Asiyeh Abbasi Pages 43-52

    Household Income and Expenditure Survey (HEIS) is one of the most important surveys of the Statistical Center of Iran, the main parameters of which are spatially correlated. When there is a spatial correlation between the units of population, the classical way of selecting independent sampling units is challenging due to the lack of basic condition for the independence. Using spatial sampling is a solution to encounter this problem. Implementation of spatial sampling has received less attention in official statistics due to the lack of access to a suitable framework. In this paper we review a design-based model assisted method for optimal spatial stratification of the target population.  At present, spatial information of  population units are not available in the framework of HEIS, but access to spatial information of some sample units has been achieved by the Statistical Center of Iran for this study. The production of spatial data is one of the main components in the modernization of the statistical system which is considered by  Statistical Center of Iran.  In this paper, the sampling frame is simulated based on the HEIS data and then application of optimal spatial stratification based on a generalized distance is performed. The results demonstrate an increase in the efficiency of the mentioned sampling method compared to simple random sampling at the level of geographical areas. Also, simulation of grids with different sizes  and  correlations  reflects the better performance of this method compared to the current method of HEIS.

    Keywords: Spatial Stratification, Generalized Distance, Household Expenditure, Income Survey
  • Ramin Kazemi*, MohammadQasem Vahidi-Asl Pages 53-65

    Knowledge of statistics, ever since its inception, has served every aspect of human life and every individual and social class. It has shown its extraordinary potential in dealing with numerous problems encountering human beings since the occurring of Covid-19 in Wuhan, China. A vast amount of literature has appeared showing the power of the science of statistics in answering different questions regarding this disease and all its consequences. But it comes short of, as an instance, in modelling the geometry of disease spread among societies and in the world as a whole. Here the only way to deal with this matter is to resort to probability theory and its many ramifications in providing realistic models in describing this spread. A very power tool in this regard is percolation theory, which besides its many applications in mathematical physics, is very handy in modelling epidemic diseases, among them the Covid-19.  A short description of this theory with its use in modelling the spread of epidemic deceases, shows the importance of dealing with probability as a separate subject in the curricula and not a subordinate of the science of statistics which is now dominant in the statistics major curricula in the Iranian schools.

    Keywords: Epidemic, Covid-19, percolation, ‎percolative‎
  • Khosrow Fazli*, Korosh Arzideh Pages 67-71

    The Buffon’s needle problem is a random experiment leading to estimate of the number π by ”randomly” throwing a needle onto a plane partitioned by parallel lines. Indeed, in the independently repetitions of the experiment, based on the number of times where the needle will cross a line, one can construct an estimator of π. The aim of this note is to obtain a better estimator (in some sense) by considering a model where the plane is partitioned by rectangles. We show that both estimators are asymptotically normal and unbiased; and also the confidence intervals are obtained for π. We calculate the asymptotic relative efficiency of the estimators and show that the estimator based on the rectangles is more efficient. The data of a real experiment is provided.

    Keywords: Asymptotic relative efficiency, asymptotically normal, asymptotically unbiased
  • Vahid Rezaei Tabar* Pages 73-80

    At the end of December 2019, the spread of a new infectious disease was reported in Wuhan, China, caused by a new coronavirus and officially named Covid-19 by the World Health Organization. As the number of victims of the virus exceeded 1,000, the World Health Organization chose the official name Covid-19 for the disease, which refers to "corona", "virus", "disease" and the year 2019. The forecasting about Covid-19 can help the government make better decisions. In this paper, an objective approach is used for forecasting Covid-19 based on the statistical methods. The most important goal in this paper is to forecast the prevalence of coronavirus for confirmed, dead and improved cases and to estimate the duration of the management of this virus using the exponential smoothing method. The exponential smoothing family model is used for short time-series data. This model is a kind of moving average model that modifies itself. In other words, exponential smoothing is one of the most widely used statistical methods for time series forecasting, and the idea is that recent observations will usually provide the best guidance for the future. Finally, according to the exponential smoothing, we will provide some suggestions.

    Keywords: Covid-19, Forecasting, Objective approach, Exponential Smoothing
  • Benita Doalt Zadeh, Ayyub Sheikhi*, Mashallah Mashinchi, Alireza Arabpour Pages 81-87

    In this paper, we study the fuzzy random variable and its cumulative distribution function and express the combined fuzzy random variable and their cumulative distribution function. Then, we express the concept of copula and its application in the construction of jointly cumulative distribution function and the application of copula is expressed in the construction of a jointly cumulative distribution function for two fuzzy random variables. Finally, to better understand, an example is presented.

    Keywords: Fuzzy random variables, α-cut, α-pessimistic, Variability function, Fuzzy cumulative distribution function, Combined fuzzy random variable, Fuzzy jointly cumulative distribution function, Copula
  • Majid Jafari Khaledi*, Hassan Mirzavand Pages 89-103

    To make statistical inferences about regression model parameters, it is necessary to assume a specific distribution on the random error expression. A basic assumption in a linear regression model is that the random error expression follows a normal distribution. However, in some statistical researches, data simultaneously display skewness and bimodality features. In this setting, the normality assumption is violated. A common approach to avoiding this problem is to use a mixture of skew-normal distributions. But such models involve many parameters, which it makes difficult to fit the models to the data. Moreover, these models are faced with the non-identifiability issue. In this situation, a suitable solution is to use flexible distributions, which can take into account the skewness and bimodality observed in the data distribution. In this direction, various methods have been proposed based on developing of the skew-normal distribution in recent years. In this paper, these methods are used to introduce more flexible regression models than the regression models based on skew-normal distribution and a mixture of two skew-normal distributions. Their performance is compared using a simulation example. The methodology is then illustrated in a practical example related to a horses dataset.

    Keywords: Skewness, Symmetry, Bimodal distributions, Mixed distributions, Regression
  • Abouzar Bazyari* Pages 105-116

    In this paper, a generalization of the Gumbel distribution as the cubic transmuted Gumbel distribution based on ‎the ‎cubic ranking transmutation map is introduced. It is shown that for some of the parameters, the proposed density function is mesokurtic and for others parameters the density function is platykurtic function. The statistical properties of new distribution, consist of survival function, hazard function, moments and moment generating function have been studied. The parameters of cubic transmuted Gumbel distribution are estimated using the maximum likelihood method. Also, the application of the cubic transmuted Gumbel distribution is shown with two numerical examples and compared with Gumbel distribution and transmuted Gumbel distribution. Finally, it is shown that for a data set, the proposed cubic transmuted Gumbel distribution is better than Gumbel distribution and transmuted Gumbel distribution.

    Keywords: Cubic transmuted Gumbel distribution, Likelihood function, Maximum likelihood estimation, Moment generating function
  • Mohammad Khorasani*, Farzad Eskandari Pages 117-126

    In today’s world, using the statistical modeling process, natural phenomena can be used to analyze and predict the events under study. ‎ Many hydrological modeling methods do not make the best use of available information because hydrological models show a wide range of environmental processes that complex the model‎‏. ‎‎‎‎In particular, when predicting, parameters affect the performance of statistical models. In many risk assessment issues, the presence of uncertainty in the parameters leads to uncertainty in predicting the model. Global sensitivity analysis is a tool used to show uncertainty and is used in decision making, risk assessment, model simplifcation and so on. Minkowski distance sensitivity analysis and regional sensitivity analysis are two broad methods that can work with a given sample set of model input-output pair. One signifcant difference between them is that minkowski distance sensitivity analysis analyzes output distributions conditional on input values (forward), while regional sensitivity analysis analyzes input distributions conditional on output values (reverse). In this dissertation, we study the relationship between these two approaches and show that regional sensitivity analysis (reverse), when focusing on probability density functions of input, converges towards minkowski distance sensitivity analysis (forward) as the number of classes for conditioning model outputs in the reverse method increases. Similar to the existing general form of forward sensitivity indices, we derive a general form of the reverse sensitivity indices and provide the corresponding reverse given-data method. Finally, the sensitivity analysis of a water storage design with high dimensions of the model outputs is performed.

    Keywords: Global sensitivity analysis, Minkowski distance sensitivity analysis, regional sensitivity analysis, Classifcation of output